El castellano utiliza pronombres femeninos y masculinos, sin embargo, hay idiomas que tienen pronombres neutros, como el euskera, el búlgaro o el húngaro. En referencia a esto, recientemente se ha descubierto que el Traductor de Google aplica el género masculino o femenino a un sujeto dependiendo de la acción que este realice. Para algunos, este algoritmo tiene un sesgo que consideran machista.
Desde la plataforma Reddit, un usuario ha dejado ver su descontento con este sesgo, ya que “Ő szép. Ő okos" (del húngaro), el traductor lo interpreta como “Ella es guapa. Él es inteligente”.
De esta manera, la plataforma parece caer en los típicos estereotipos asociados a los distintos géneros. El femenino “ella” dirigido a las acciones relacionadas con las tareas domésticas y a la belleza, y el masculino “él” para ciertas opciones profesionales mejor valoradas por la sociedad.
Hungarian has no gendered pronouns, so Google Translate makes some assumptions pic.twitter.com/oRo0nJfnMc
— Marcos Besteiro (@MarcosBL) March 22, 2021
Aunque en la traducción del húngaro es más común este sesgo, este problema también se encuentra en algunas interpretaciones del euskera. Por poner un ejemplo, cuando se escribe “Gidatzen du”, que en euskera significaría “él conduce” o “ella conduce”, el Traductor de Google lo interpreta como que el sujeto es masculino. Con “Josten du”, que sería “él cose” o “ella cose” pasa al contrario, y lo traducen con el sujeto en femenino.
No obstante, existen otros casos en los que la plataforma utiliza ambos géneros, como el inglés. En este idioma, la tercera persona del plural es neutra (“they”) y, al traducir “They sew”, en castellano te lo interpretan como “Ellas cosen” y “Ellos cosen”.
Desde la compañía aclaran que "Google Translate funciona aprendiendo patrones a partir de millones de ejemplos de traducciones que aparecen en la web. Lamentablemente, esto significa que el modelo puede replicar de forma involuntaria los prejuicios de género que ya existen".
"Hemos estado trabajando en la actualización del producto para proporcionar una traducción tanto femenina como masculina de una sola palabra para múltiples idiomas y, aunque todavía se está trabajando para implementarlo de manera más amplia, esperamos llevar la experiencia a más funciones y comenzar a abordar el género no binario en las traducciones", explican.
El sesgo en las plataformas
Esta no es la primera vez que un algoritmo de una aplicación muestra sesgos despectivos ante ciertas personas. Un ejemplo de ello es la parte de las imágenes que se muestran en el timeline de Twitter, ya que en su día se viralizó que enseñaba antes los rostros de hombres y de personas blancas que los de mujeres y de personas racializadas.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.
Comentarios
Hemos bloqueado los comentarios de este contenido. Sólo se mostrarán los mensajes moderados hasta ahora, pero no se podrán redactar nuevos comentarios.
Consulta los casos en los que 20minutos.es restringirá la posibilidad de dejar comentarios